首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Java项目实战

    Stable Diffusion简介

    Stable Diffusion 是一种用于图像生成的人工智能技术。它可以根据文本描述生成相应的图像。Stable Diffusion 是基于 Transformer 语言模型的开源技术。 图片Stable Diffusion 是基于 Transformer 语言模型的。具体来说,它使用了 OpenAI's CLIP model 和 Diffusion models。 Stable Diffusion 使用 CLIP model 来建立图像和文本描述之间的关联,从而实现根据文本生成图像的功能。 Stable Diffusion 采用了 DDPM(Denoising Diffusion Probabilistic Models) 这一 diffusion model,它可以将噪声图像通过arosól 得到训练好的 Stable Diffusion 模型,可以输入文本描述并生成匹配的图像。

    2K20编辑于 2023-06-25
  • Stable Diffusion简介

    Stable Diffusion是一种用于图像生成的模型,它可以生成高质量的图像。下面我将逐个介绍。 1. Stable Diffusion是一种基于概率的生成模型,它通过学习数据的概率分布来生成新的样本。与传统的生成模型相比,Stable Diffusion具有更好的稳定性和生成效果。 Stable Diffusion在生活和实践中有着广泛的应用。例如,在图像修复领域,我们可以使用Stable Diffusion来修复受损的图像,将模糊、噪声或缺失的部分恢复为清晰的图像。 此外,Stable Diffusion还可以用于图像合成、图像增强和图像生成等任务。例如,我们可以使用Stable Diffusion生成逼真的艺术作品、虚拟场景或者人脸图像。 4. Stable Diffusion作为一种生成模型,具有广阔的发展前景。随着计算机硬件的不断进步和深度学习算法的不断发展,Stable Diffusion可以生成更高质量、更逼真的图像。

    23910编辑于 2025-12-16
  • 来自专栏大龄程序员的人工智能之路

    Stable Diffusion 2.0 来了

    Stable Diffusion 一经发布,就立刻在业界掀起巨大的波浪。 我个人后知后觉,直到 Stable Diffusion V1.4 版本发布,才接触 Stable Diffusion (之前使用的是 Disco Diffusion)。 下面是使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768。 超分辨率 Upscaler 扩散模型 Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将图像的分辨率提高了 4 倍。 当然,现在可以一步到位,Stable Diffusion 2.0 可以生成分辨率为 2048x2048 甚至更高的图像。

    2K30编辑于 2023-02-27
  • 来自专栏小孟开发笔记

    stable diffusion汉化教程

    二、下载汉化包 stable-diffusion-webui-localization-zh_CN汉化包 将压缩包解压,找到localizations目录下的zh_CN.json文件,把它放到<stable diffusion根目录>/localizations下。 以上就是stable diffusion汉化教程了,希望对你有用,谢谢。

    1.5K20编辑于 2023-10-13
  • 来自专栏xiaosen

    Stable Diffusion AI绘画

    随着深度学习技术的飞速发展,一种名为Stable Diffusion的新型生成模型引起了广泛关注。 Stable Diffusion是一种基于概率的生成模型,它可以学习数据的潜在分布,并生成与训练数据相似的新样本。  Stable Diffusion是基于连续扩散过程的一种生成模型。 具体来说,Stable Diffusion将数据生成过程分解为一系列离散的时间步,每个时间步都对应一个条件概率分布。 关于DPM算法:这是我们在stable diffusion用的最多的方法,我们按照时间速度来筛选的话,我们直接选择DPM++ 且后面跟着Karras的算法就可以了。 我们还可以选择Stable Diffusion新版本增加的Unipc和Restart采样器。

    59010编辑于 2024-05-06
  • 来自专栏GoCoding

    Stable Diffusion WebUI 环境

    Stable Diffusion 是热门的文本到图像的生成扩散模型,本文介绍了如何准备其 WebUI 环境。 Stability AI[1] Stability API Extension for Automatic1111 WebUI[2] Stable Diffusion web UI[3] 环境基础 OS .safetensors $SDWEBUI/models/Stable-diffusion/ mv dreamshaper_6BakedVae.safetensors $SDWEBUI/models/Stable-diffusion /webui.sh webui-user.sh 可配置指定的 Stable Diffusion 版本等,默认值见 $SDWEBUI/modules/launch_utils.py。 Diffusion web UI: https://github.com/AUTOMATIC1111/stable-diffusion-webui [4] Civitai: https://civitai.com

    99820编辑于 2023-08-26
  • 来自专栏崔哥的专栏

    Stable Diffusion 姓氏头像

    vae-ft-mse-840000-ema-pruned.safetensors, MR 3DQ 1.5版本 V2, Sampler: DPM++ 2M Karras, CFG scale: 7 然后粘贴到Stable Diffusion并展开填充。

    34710编辑于 2024-04-21
  • 来自专栏周末程序猿

    ChatGPT|Stable Diffusion实践

    最近根据文字输入生成图片很火,其技术是基于Stable Diffusion技术框架,Stable Diffusion的发布是AI图像生成发展过程中的一个里程碑,相当于给大众提供了一个可用的高性能模型,不仅生成的图像质量非常高 Stable Diffusion从功能上来说主要包括两方面: 1)其核心功能为仅根据文本提示作为输入来生成的图像(text2img); 2)你也可以用它对图像根据文字描述进行修改(即输入为文本+图像);

    67320编辑于 2023-04-17
  • 来自专栏程序那些事

    Stable Diffusion中的embedding

    Stable Diffusion中的embedding嵌入,也称为文本反转,是在 Stable Diffusion 中控制图像样式的另一种方法。 你需要把这些embedding文件放到Stable diffusion webUI根目录下面的embeddings文件夹,然后重启Stable diffusion webUI即可。 embedding:embedding、dreambooth 和hypernetwork的区别文本反转(Textual Inversion)、Dreambooth 和超网络 是三种不同的技术,它们都可以用于微调Stable Diffusion模型,但各自有不同的特点和应用场景。

    50220编辑于 2024-04-25
  • 来自专栏CSDNToQQCode

    Stable Diffusion——外挂VAE模型

    Stable Diffusion 是一种基于变分自编码器(VAE)的深度学习模型,其作用主要是用于文本生成图像。 Stable Diffusion 的 VAE 模型在训练过程中会学习到一组潜在变量,这些潜在变量可以捕捉到图像中丰富的语义和结构信息。 这种基于文本生成的图像具有很高的稳定性和可复现性,因此得名“Stable Diffusion”。 总的来说,Stable Diffusion VAE 模型的作用是通过学习潜在表示空间,将文本表示转化为图像,从而实现高质量、稳定且可复现的文本生成图像任务。

    2.8K10编辑于 2023-12-25
  • stable diffusion 安装教程详解

    安装和使用stable diffusion 教程(整合包与自己手动两种方法) 1、硬件要求: 有N卡的电脑。N卡指的整合包安装是NVIDIA显卡,最好在6G以上,已知16xx系列现在还不支持。 手动安装 3.1、点击网站https://github.com/AUTOMATIC1111/stable-diffusion-webui。 3.3、注册账号后,进入(CompVis/stable-diffusion-v-1-4-original at main)界面,下载名字为:”sd-v1-4.ckpt“的文件,大小4.27G,这是Stable 3.4、将下载好的“sd-v1-4.ckpt”文件,放入3.1步骤下载好的文件 stable-diffusion-webui目录下的model文件夹中。 3.5、点击 stable-diffusion-webui目录下webui-user.bat文件,开始运行安装,等待,假如有报错(大概率是网络问题),关掉重开。

    48210编辑于 2025-12-16
  • 来自专栏小义思

    AutoDL云部署Stable Diffusion

    通过云平台部署Stable Diffusion工具,解决普通人电脑配置低、不懂魔法等痛点,轻松实现AI绘画 1.账号注册 AutoDL地址https://www.autodl.com/. masterJohn大佬也会经常更新镜像,分享stable diffusion的最新模型和最新玩法,方便大家快速入手。 Jupyterlab按钮,再次点击,跳转到下面的程序页面,双击"启动器.ipynb"文件,按照文件说明启动程序即可 启动成功后,回到实例列表页,点击自定义服务,在弹窗中点击访问 在新标签页,可以看到我们已经打开stable-diffusion-webui 界面了,接下来就可以愉快画画了 4.上传模型 stable diffusion的模型文件一般都比较大,实例的50G容量根本放不太多,建议通过阿里云盘上传 点击列表页中的autoPanel,在弹出的页面中选择公网网盘

    83110编辑于 2024-04-10
  • 来自专栏人工智能领域

    Stable Diffusion 本地部署教程

    Stable Diffusion 是一种用于在图像和视频处理中进行几何变换的技术。它可以应用于各种图像处理任务,如图像去噪、图像增强、图像对齐等。 Stable Diffusion 通过应用扩散过程来实现图像的平滑处理,并且保持图像边缘的稳定性。 要在本地搭建 Stable Diffusion,您需要按照以下步骤进行操作: 确保您的计算机上已经安装了以下软件和工具: Python 3.x pip(Python 包管理工具) PostgreSQL( 数据库) 下载 Stable Diffusion 的源代码。 您可以从 Stable Diffusion 的官方网站或 GitHub 上下载代码,或者使用 Git 克隆整个仓库到您的计算机上。 在命令行中导航到 Stable Diffusion 代码的根目录。

    53710编辑于 2024-12-18
  • 来自专栏CSDNToQQCode

    Stable Diffusion——Adetailer面部处理

    GitHub - Bing-su/adetailer: Auto detecting, masking and inpainting with detection model.

    75110编辑于 2023-12-03
  • 来自专栏数据仓库技术

    Mac 本地部署Stable Diffusion

    Stable Diffusion 官网给出了mac系统的安装步骤,中间遇到些问题,不过整体比较顺利。 官网安装说明:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon#downloading-stable-diffusion-models /768-v-ema.ckpt下载完成之后将模型文件放到“stable-diffusion-webui/models/Stable-diffusion/”下,将768-v-ema.ckpt 改为 768 /models/Stable-diffusion/"目录下面。 pip deactivate 回到stable-diffusion-webui 目录下,再次执行 .

    2.5K10编辑于 2024-01-08
  • 来自专栏code-x

    stable-diffusion AI 绘画

    git clone https://github.com/CompVis/stable-diffusion.git进入stable-diffusion目录在这里注册一个账号: https://huggingface.co blog.csdn.net/qq_35930739/article/details/128167167pip install torch -f https://download.pytorch.org/whl/torch_stable.htmlpip import StableDiffusionPipelineimport torchif __name__ == '__main__': # https://github.com/CompVis/stable-diffusion torch.backends.cudnn.enabled = True pipe = StableDiffusionPipeline.from_pretrained( "CompVis/stable-diffusion-v1

    41830编辑于 2023-07-10
  • 来自专栏数据派THU

    使用ControlNet 控制 Stable Diffusion

    import StableDiffusionControlNetPipeline, ControlNetModel, DPMSolverMultistepScheduler 初始化ControlNet和Stable Diffusion管道: canny_image = Image.fromarray(image) # canny_image.save('canny.png torch_dtype=torch.float16 ) pipe = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1 torch_dtype=torch.float16 ) pipe = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1

    1.8K30编辑于 2023-04-18
  • 来自专栏CSDNToQQCode

    Stable Diffusion】通过ControlNet修复手臂

    ControlNet在Stable Diffusion中的用处 ControlNet在Stable Diffusion中的用处主要是控制和调整模型的输出,以及在深度学习中优化模型的性能。 在Stable Diffusion这个特定场景中,ControlNet可以帮助生成更加自然、生动、丰富的图像,提高生成的图像质量,满足用户的不同需求。

    66210编辑于 2023-12-13
  • 来自专栏云上修行

    Stable Diffusion Webui - ControlNet Tile 教程

    安装 Stable Diffusion Webui的安装和ControlNet Tile这里不表。如果需要,可以查看我之前的文章。 进入Stable Diffusion Webui的图生图,通过CLIP反推提示词,可以获得:a woman with long hair and a white shirt is looking at with a serious look on her face, a tilt shift photo, Chen Yifei, pincushion lens effect, lyco art 图片 进入Stable Diffusion Webui的文生图,将上述反推提示词贴入提示词中,并在之前添加:best quality, (8k, RAW photo, best quality, masterpiece:1.2

    2.2K41编辑于 2023-10-16
  • 来自专栏石云升

    国内免费可用的stable diffusion

    它的底层也是stable diffusion 并且操作方式基本都跟SD一致,主打的就是一个简单好上手。可以作为初学者的SD平替工具。

    4.2K11编辑于 2024-03-25
领券